Erster KI-UrheberrechtsprozessLAION darf urheberrechtlich geschütztes Bild für KI-Training anbieten

Das Landgericht Hamburg hat die Klage eines Fotografen abgewiesen, der sich dagegen gewehrt hatte, dass eines seiner Fotos vom gemeinnützigen Verein LAION zum Training sogenannter Künstlicher Intelligenz angeboten wird. Als Forschungseinrichtung sei LAION dies erlaubt. Dabei verschenkt der Verein seine Daten auch an kommerzielle KI-Unternehmen.

Seniorinnen im Fitnesstudio
KI-generiertes Bild von Senior*innen im Fitnesstudio. Damit das funktioniert, müssen Fotos wie das von Robert Kneschke zum Training benutzt werden. – Public Domain Generiert mit Midjourney

Bildgeneratoren auf Basis sogenannter Künstlicher Intelligenz (KI) können Bilder von sportlichen Senior*innen generieren. Aber nur, weil sie zuvor Unmengen an Bildern zum Thema verarbeitet haben. Eines dieser Bilder, mit denen KI-Bildgeneratoren trainiert wurden, stammt von Robert Kneschke. Der Fotograf hatte eine Gruppe Senior*innen im Fitnesscenter fotografiert und das Bild über eine Fotoagentur zur entgeltlichen Nutzung angeboten.

Der Link zum Bild und eine dazugehörige Beschreibung landeten in einem Datensatz, der fast sechs Milliarden Bild-Text-Paare umfasst und den der gemeinnützige Verein LAION zum Training von Bildgeneratoren kostenlos anbietet. Er wurde unter anderem zum Training von Stable Diffusion genutzt. LAION wurde Ende 2023 bekannt, weil der Trainingsdatensatz der Firma damals zahlreiche Links zu Abbildungen von sexuellem Missbrauch Minderjähriger enthielt.

Kneschke klagte gegen die Nutzung seines Bildes. Es war der erste KI-Urheberrechtsprozess in Deutschland. Doch das Landgericht Hamburg wies seine Klage am Freitag ab. Nach Paragraf 60d des Urheberrechtsgesetzes sei die Verwendung der Bilder für wissenschaftliche Forschung erlaubt. LAION falle unter diese Ausnahmeregelung. Kneschke muss nun seine Anwaltskosten und die der Gegenseite tragen.

„Ein schwarzer Tag für die kreative Gemeinde“

Robert Kneschke sagt gegenüber netzpolitik.org: „Es ist ein schwarzer Tag für die kreative Gemeinde in Deutschland.“ Aus seiner Sicht sei besonders problematisch, dass LAION eng mit der Firma Stability AI verzahnt sei, die den Bildgenerator Stable Diffusion betreibt. Es habe zum Beispiel personelle Überschneidungen gegeben.

Laut Paragraf 60d des Urheberrechtsgesetzes dürfen sich Institutionen, die mit einem privaten Unternehmen zusammenarbeiten, das einen bestimmenden Einfluss auf die Forschungsorganisation und einen bevorzugten Zugang zu den Ergebnissen der wissenschaftlichen Forschung hat, nicht auf das Wissenschaftsprivileg berufen. Doch ein solcher Zusammenhang konnte im Prozess nicht belegt werden.

„In der Firma wäre die Nutzung des Bildes verboten gewesen, so soll sie plötzlich legal sein. Das Ergebnis bleibt das Gleiche, mit dem Unterschied, dass gleich mehrere Firmen profitieren. Ich finde das eine Frechheit“, sagt Kneschke.

Wie man der Nutzung widerspricht

Das Landgericht Hamburg hat sich auch mit der Frage auseinandergesetzt, ob der Erfassung der Bilder rechtsgültig widersprochen wurde. Nach Paragraf 44b des Urheberrechtsgesetzes ist die automatisierte Erfassung von Daten nicht erlaubt, wenn der Rechteinhaber ihr in maschinenlesbarer Form widerspricht. Auf der Seite der Fotoagentur wurde die Erfassung in natürlicher Sprache abgelehnt.

Da die sogenannte KI jedoch auch in natürlicher Sprache geschriebene Texte inhaltlich erfassen kann, sei, so das Gericht, der Vorbehalt rechtskräftig gewesen. Wenn es also nicht um wissenschaftliche, sondern kommerzielle Zwecke gegangen wäre, wäre der Widerspruch in natürlicher Sprache gültig. Das sei auch von der KI-Verordnung der EU gedeckt, nach der zur Ermittlung eines möglichen Nutzungsvorbehalts auch modernste Technologien einzusetzen sind.

Kneschke überlegt, ob er gegen die Entscheidung des Landgerichts in Berufung gehen soll. Für Menschen, die derweil den Programmen, die Daten im Internet sammeln, Einhalt gebieten wollen, hat er auf seiner Website eine Anleitung veröffentlicht, die zeigt, wie man dazu eine maschinenlesbare Datei namens robots.txt schreibt. Eine solche Datei wird auf Webseiten benutzt, um beispielsweise einer Indizierung durch Suchmaschinen zu widersprechen – oder eben auch Firmen, die die Inhalte zum Trainieren benutzen. Ob die eigenen Daten bereits zum Training von Künstlicher Intelligenz genutzt wurden, zeigt die Seite haveibeentrained.com.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

7 Ergänzungen

  1. Ein generiertes Bild kann immer noch einen Urheberrechtsbruch bedingen. Sogar die Nutzung der Modelle in einem (kommerziellen?) Generator könnte illegal sein, wenn solche Bilder inkludiert werden, wenn ich mich da nicht täusche.

    Denn die Modellschnitzer von LAION machen nur erst mal diese Modelle. Das ist noch kein Generator, wohl aber ein enzyklopädisches Abbild der Trainingsdaten. Das muss man wissen, wenn man darüber urteilt. Wenn das so weit Wissenschaft ist, mag das vielleicht sogar ok sein. Frage bleibt, was ab da passiert.

    Ansonsten… Opt-Out-Zwang? – Das Internet ist einen Tick weit gefährlicher geworden, oder zwei. Deutschlandweit zunächst, nehme ich mal an.

    1. Hier geht es wohl „nur“ um die Zusammenstellung von Links auf Bilder, gegebenenfalls mit Vorhalten von Metadaten wie Text, Beschreibung und weiterem, welche davon auch immer von einer verlinkten Quelle stammen.

      Während Laion auch Modelle anbietet, geht es in diesem Falle um eine Linkliste, für deren Erstellung die Bilder allerdings analysiert wurden. Das ist noch nicht mal ein trainiertes Modell. Das Gericht erlaubt also die Analyse von urheberrechtlich geschützten Bildern zu wissenschaftlichen Zwecken, ohne dauerhafte Speicherung.

  2. Ich bin schwer enttäuscht von diesem Artikel. Hyperlinks zu Bildern zu sammeln, fällt nicht unter Urheberschutz. Und auch diese Hyperlinks zu beschreiben, fällt nicht darunter.
    Ich habe nichts übrig für KI-„Kunst“. Aber von Urheberrecht halte ich noch weniger. Oft können sich die kleinen Künstler gar nicht in ihrem Recht durchsetzen. Siehe die Situation auf YouTube. Wenn sich das noch ausweitet, kann das nichts Gutes bringen.
    Dieser Artikel spiegelt meine Auffassung gut wieder: https://www.eff.org/deeplinks/2023/04/how-we-think-about-copyright-and-ai-art-0

  3. Es kann nicht sein und nicht der Sinn einer robots.txt, diese ständig zu modifizieren und mit neuen Botsnamen auszurüsten. Ein Wettrennen mit ständig neuen Bots?? Auch halten diese dreisten „schmutzigen“ Firmen sich nicht dran! Ein generelles Bottverbot am Anfang der Datei muss reichen, dann wenn man eine Suchmaschine wünscht, hierzu eine Außnahme machen .
    Man muss heute auch drekige dreistfalsche Inhalte „Salz in die Suppe tun“ zur Teuschung von Bots nutzen. Texte und Bilder mit falschen Inhalte, die nur durch die Bots erfast werden!

  4. > Es kann nicht sein und nicht der Sinn einer robots.txt, diese ständig zu modifizieren und mit neuen Botsnamen auszurüsten.

    Ja, bots sind eine Plage, aber dein Lamento löst administratorisches Fremdschämen aus.
    Die robots.txt hat exakt diese Aufgabe, und sie erfüllt genau den beabsichtigten Zweck (wenn sich bots denn daran halten). So wie du andere Konfigurationsdateien aktualisieren musst, so ist es auch hier deine verdammte Pflicht, das ordentlich zu tun.

    1. Recht muss ich dir geben

      Selbstverständlich sollten robots.txt immer von zuständigen Administratoren aktualisiert werden, dass ist und war nicht der springende Punkt gewesen.
      Die Effektivität und Effizienz der robots.txt war gemeint … Ist leider so nicht rüber gekommen.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.